Text copied to clipboard!

Titolo

Text copied to clipboard!

Sviluppatore Big Data

Descrizione

Text copied to clipboard!
Stiamo cercando uno Sviluppatore Big Data altamente qualificato e motivato per unirsi al nostro team tecnologico in continua crescita. Il candidato ideale sarà responsabile della progettazione, sviluppo e manutenzione di soluzioni scalabili per la gestione e l'elaborazione di grandi volumi di dati. Questa figura lavorerà a stretto contatto con data scientist, analisti e altri sviluppatori per garantire che i dati siano accessibili, affidabili e utilizzabili per supportare decisioni aziendali strategiche. Lo Sviluppatore Big Data sarà coinvolto nella creazione di pipeline di dati efficienti, nell'integrazione di fonti dati eterogenee e nell'ottimizzazione delle prestazioni dei sistemi di elaborazione dati. È essenziale una solida conoscenza delle tecnologie Big Data come Hadoop, Spark, Kafka e strumenti di data warehousing. Inoltre, il candidato dovrà dimostrare competenze nella programmazione (preferibilmente in Java, Scala o Python) e nella gestione di database sia relazionali che NoSQL. Il ruolo richiede anche una buona comprensione delle pratiche DevOps, dell'automazione dei processi e dell'uso di ambienti cloud come AWS, Azure o Google Cloud Platform. Sarà considerato un plus l'esperienza con strumenti di orchestrazione come Apache Airflow o strumenti di containerizzazione come Docker e Kubernetes. Il candidato ideale possiede eccellenti capacità analitiche, attenzione ai dettagli e un forte orientamento al problem solving. È in grado di lavorare in team multidisciplinari e di comunicare efficacemente con stakeholder tecnici e non tecnici. Offriamo un ambiente di lavoro dinamico, opportunità di crescita professionale e la possibilità di lavorare su progetti innovativi che fanno uso delle tecnologie più avanzate nel campo dei Big Data.

Responsabilità

Text copied to clipboard!
  • Progettare e sviluppare pipeline di dati scalabili ed efficienti
  • Integrare fonti dati strutturate e non strutturate
  • Ottimizzare le prestazioni dei sistemi di elaborazione dati
  • Collaborare con data scientist e analisti per comprendere i requisiti
  • Gestire e monitorare flussi di dati in tempo reale
  • Implementare soluzioni di data warehousing e data lake
  • Garantire la qualità e l'integrità dei dati
  • Utilizzare strumenti di orchestrazione per automatizzare i processi
  • Sviluppare codice pulito, documentato e manutenibile
  • Partecipare alla definizione dell'architettura dei sistemi Big Data

Requisiti

Text copied to clipboard!
  • Laurea in Informatica, Ingegneria o campo correlato
  • Esperienza comprovata nello sviluppo di soluzioni Big Data
  • Conoscenza di Hadoop, Spark, Kafka e Hive
  • Competenze di programmazione in Java, Scala o Python
  • Esperienza con database relazionali e NoSQL
  • Familiarità con ambienti cloud (AWS, Azure, GCP)
  • Conoscenza di strumenti di orchestrazione come Airflow
  • Esperienza con container Docker e orchestrazione Kubernetes
  • Capacità di lavorare in team multidisciplinari
  • Buone capacità comunicative e analitiche

Domande potenziali per l'intervista

Text copied to clipboard!
  • Qual è la tua esperienza con tecnologie come Hadoop e Spark?
  • Hai mai lavorato con pipeline di dati in tempo reale?
  • Quali linguaggi di programmazione utilizzi più frequentemente?
  • Hai esperienza con ambienti cloud? Quali?
  • Come garantisci la qualità dei dati nei tuoi progetti?
  • Hai mai utilizzato strumenti di orchestrazione come Apache Airflow?
  • Come gestisci l'integrazione di fonti dati eterogenee?
  • Hai esperienza con database NoSQL? Quali?
  • Come affronti problemi di performance nei sistemi Big Data?
  • Hai mai lavorato in team Agile o DevOps?